課程資訊
課程名稱
自然語言處理
Natural Language Processing 
開課學期
110-2 
授課對象
電機資訊學院  資訊工程學研究所  
授課教師
陳信希 
課號
CSIE5042 
課程識別碼
922 U0670 
班次
 
學分
3.0 
全/半年
半年 
必/選修
選修 
上課時間
星期四2,3,4(9:10~12:10) 
上課地點
資105 
備註
限學士班三年級以上
總人數上限:55人 
 
課程簡介影片
 
核心能力關聯
核心能力與課程規劃關聯圖
課程大綱
為確保您我的權利,請尊重智慧財產權及不得非法影印
課程概述

自然語言處理,又稱計算語言學或人類語言技術,主要的目標是學習了解和產生自然語言的電腦系統,讓電腦像人一樣處理任何形式的對話工作。由於大量知識的機器可讀形式是以自然語言來呈現,很多實際應用應運而生。以文件分析、自動問答、和機器翻譯等三個應用為例。在文件分析,自然語言處理技術由部落格、微博、論壇等不同形式的媒體中,擷取知識以支援多樣化的應用。在自動問答,自然語言處理技術分析問題以了解問題核心,分析內容以擷取正確答案。在機器翻譯,自然語言處理技術分析來源語言,掌握語言之差異,以生成目標語言。本課程分詞彙、語法、語義、語用、和應用等五個面向,教授自然語言處相關理論和技術。 

課程目標
修課同學可以由詞彙、語法、語義、語用、和應用等五個面向,學習自然語言處相關理論和技術,以下分別說明:
(1) 詞彙:Collocations and Multi-Word Expressions、N-grams and Smoothing、Neural Probabilistic Language Model and Word Embeddings, HMM Models、Part of Speech Tagging
(2) 語法:Syntax and Grammars、Syntactic Parsing、Statistical Parsing、Deep Neural Networks for Parsing, Dependency Parsing Using Neural Network
(3) 語義:Lexical Semantics、Computational Lexical Semantics、Semantic Representation
(4) 語用:Computational Discourse、Chinese Discourse Parsing and Its Applications
(5) 應用:Opinion Mining and Sentiment Analysis 
課程要求
本課程評量包括期中考、期末考、學期計畫、以及分組報告共四部分,引導同學學習自然語言處理理論和技術,並設計應用系統。 
預期每週課後學習時數
 
Office Hours
 
指定閱讀
待補 
參考書目
(1) Daniel Jurafsky and James H. Martin, Speech and Language Processing: An
Introduction to Natural Language Processing, Computational Linguistics and
Speech Recognition, Third Edition. December 29, 2021 draft.
(https://web.stanford.edu/~jurafsky/slp3/),https://web.stanford.edu/~jurafsky/slp3/ed3book_dec292021.pdf。
(2) Jacob Eisenstein, Introduction to Natural Language Processing, The MIT
Press, 2019.
(3) Neural Network Methods for Natural Language Processing, Synthesis
Lectures on Human Language Technologies, Morgan & Claypool publishers, 2017.
(4) Uday Kamath, John Liu, and James Whitaker, Deep Learning for NLP and Speech Recognition, Springer, 2020.
https://link.springer.com/content/pdf/10.1007%2F978-3-030-14596-5.pdf
(5) Deep Learning Papers for Natural Language Processing 
評量方式
(僅供參考)
   
課程進度
週次
日期
單元主題
第1週
2/17  Lecture 1. Introduction 
第2週
2/24  Lecture 2. Words, Collocations and Multiword Expressions 
第3週
3/3  Lecture 3. N-Gram Language Models, Smoothing and Discounting 
第4週
3/10  Lecture 4. Vector Semantics and Embeddings
Lecture 5. Neural Networks and Neural Language Models 
第5週
3/17  Lecture 6. Sequence Labeling for Parts of Speech and Named Entities
Lecture 7. Deep Learning Architecture for Sequence Processing 
第6週
3/24  Lecture 7. Machine Translation and Encoder-Decoder Models 
第7週
3/31  Lecture 8. Transfer Learning with Contextual Embeddings and Pre-trained Language Models 
第8週
4/7  期中考 
第9週
4/14  Lecture 9. Constituency Grammars and Parsing
Lecture 10. Dependency Parsing 
第10週
4/21  Lecture 11. Logical Representation of Sentence Meanings 
第11週
4/28  Lecture 12. Word Senses and WordNet
Lecture 13. Semantic Role Labelling and Argument Structure  
第12週
5/5  Lecture 14. Coreference Resolution
Lecture 15. Computational Discourse 
第13週
5/12  分組報告 
第14週
5/19  分組報告 
第15週
5/26  分組報告 
第16週
6/2  期末考